Это простой пример использования scipy.optimize.leastsq
:
import numpy as np
import scipy.optimize as optimize
import matplotlib.pylab as plt
def func(kd,p0,l0):
return 0.5*(-1-((p0+l0)/kd) + np.sqrt(4*(l0/kd)+(((l0-p0)/kd)-1)**2))
Сумма квадратов residuals
является функцией kd
, которую мы пытаемся минимизировать:
def residuals(kd,p0,l0,PLP):
return PLP - func(kd,p0,l0)
Здесь я генерирую некоторые случайные данные. Вместо этого вы захотите загрузить свои реальные данные.
N=1000
kd_guess=3.5 # <-- You have to supply a guess for kd
p0 = np.linspace(0,10,N)
l0 = np.linspace(0,10,N)
PLP = func(kd_guess,p0,l0)+(np.random.random(N)-0.5)*0.1
kd,cov,infodict,mesg,ier = optimize.leastsq(
residuals,kd_guess,args=(p0,l0,PLP),full_output=True,warning=True)
print(kd)
дает что-то вроде
3.49914274899
Это наилучшее значение для kd
, найденное optimize.leastsq
.
Здесь мы генерируем значение PLP
, используя значение для kd
, которое мы только что нашли:
PLP_fit=func(kd,p0,l0)
Ниже приведен график PLP
против p0
. Синяя линия - из данных, красная линия - наиболее подходящая кривая.
plt.plot(p0,PLP,'-b',p0,PLP_fit,'-r')
plt.show()